美女高潮潮喷出白浆视频,欧美村妇激情内射,日本少妇被爽到高潮无码,CHINESE猛男自慰GV

當(dāng)前位置:100EC>數(shù)字研究>汪政:解碼ChatGPT
汪政:解碼ChatGPT
汪政“ 法律科技智能研究院”公眾號發(fā)布時間:2023年09月18日 11:17:19

(網(wǎng)經(jīng)社訊)編者按:2022年11月美國人工智能研究實驗室OpenAI發(fā)布ChatGPT大型語言模型(Large Language Models,LLMs)引發(fā)了全球社會各界的關(guān)注,尤其是2023年3月14日發(fā)布的GPT-4的回答準(zhǔn)確性不僅大幅提高,還具備更高水平的識圖能力,且能夠生成歌詞、創(chuàng)意文本,實現(xiàn)風(fēng)格變化。此外,GPT-4的文字輸入限制也提升至2.5萬字,且對于英語以外的語種支持更加優(yōu)化。

近期,隨著各類大型語言模型(LLMs)的公布更是引發(fā)了關(guān)于人工智能(Artificial Intelligence,AI)、生成式人工智能(AIGC)和通用人工智能(AGI)對未來人類生活影響的激烈討論和研究熱情。本文由Shahab Saquib Sohail, Faiza Farhat, Yassine Himeur等人通過Scopus數(shù)據(jù)庫搜索109篇ChatGPT相關(guān)文章,包含了53個國家、349位作者關(guān)于ChatGPT討論所形成的文獻(xiàn)綜述,可以代表當(dāng)前國際社會對ChatGPT最新和最全面的研究成果。小編通過編譯將原文標(biāo)題《解碼ChatGPT:現(xiàn)有研究、當(dāng)前挑戰(zhàn)和未來可能方向的分類》的主要內(nèi)容進(jìn)行翻譯和編輯,以饗讀者。希望本文有助于中國人工智能相關(guān)領(lǐng)域的創(chuàng)業(yè)者、研究者和愛好者正確理解、辨析和認(rèn)知ChatGPT等大型語言模型(LLMs),進(jìn)而為生成式人工智能(AIGC)和通用人工智能(AGI)的研究指明方向。

原文鏈接:https://doi.org/10.1016/j.jksuci.2023.101675

解碼ChatGPT:

現(xiàn)有研究、當(dāng)前挑戰(zhàn)和未來可能方向的分類

Decoding ChatGPT: A taxonomy of existing research, current challenges, and possible future directions



近年來,自然語言處理(NLP)和人工智能(AI)技術(shù)取得了重大進(jìn)展,開發(fā)了能夠生成類人文本的復(fù)雜語言模型。在這些模式中,生成預(yù)訓(xùn)練模型(GPT)因其生成連貫和上下文相關(guān)響應(yīng)的能力而獲得了極大的關(guān)注和認(rèn)可。GPT模型已成功應(yīng)用于各種NLP任務(wù),包括語言翻譯、文本摘要和問答(Guo et al.,2023)。GPT模型的一個突出變體是聊天生成預(yù)訓(xùn)練模型(ChatGPT),這是一種專門設(shè)計用于與用戶進(jìn)行對話交互的聊天機器人(AI,2023;Sohail等人,2023)。ChatGPT利用GPT的功能提供交互式和動態(tài)響應(yīng),模仿類似人類的對話。這項創(chuàng)新技術(shù)開辟了新的可能性。

一、ChatGPT的介紹

1.1

ChatGPT的體系結(jié)構(gòu)

ChatGPT由OpenAI(OpenAI,2023)開發(fā),是一種語言模型,能夠創(chuàng)建會話式人工智能系統(tǒng),能夠理解人類語言輸入并提供有意義的響應(yīng)。用它自己的話來說(于2023年3月29日發(fā)布):“我是ChatGPT,這是一個由OpenAI開發(fā)的語言模型,旨在對各種問題和提示產(chǎn)生類似人類的反應(yīng)。我的目的是以一種交流的方式幫助用戶并與他們互動,為他們的詢問提供有用和信息豐富的回復(fù)?!?/p>

ChatGPT利用由編碼器-解碼器層組成的轉(zhuǎn)換器架構(gòu),這些層協(xié)作處理和生成自然語言文本(Chen et al.,2023)。ChatGPT的體系結(jié)構(gòu)包括幾個重要組件,例如標(biāo)記器,它將原始文本劃分為更小的單元,稱為標(biāo)記,以便于處理。然后,輸入嵌入組件將這些標(biāo)記轉(zhuǎn)換為高維向量表示(Wang等人,2019)。

ChatGPT的轉(zhuǎn)換器架構(gòu)由兩個主要組件組成:編碼器和解碼器(Budzianowski和Vulic,2019)。盡管ChatGPT很受歡迎,也很有用,但它在研究人員和從業(yè)者中引起了關(guān)注,因為它有可能生成看似合理但缺乏事實準(zhǔn)確性的內(nèi)容(Borji,2023)。這一問題可能導(dǎo)致產(chǎn)生反事實或無意義的回應(yīng),對在線內(nèi)容的可靠性構(gòu)成嚴(yán)重威脅。此外,ChatGPT產(chǎn)生的虛假敘述很容易被誤認(rèn)為是合法的,尤其是不熟悉手頭話題的人(NewsGuard,2023)。研究人員一直在探索和高度關(guān)注與ChatGPT相關(guān)的潛在危害,包括刻板印象的傳播、有偏見的反應(yīng)和誤導(dǎo)性信息的屏蔽(Liang et al.,2021;Nadeem等人,2020)。對使用ChatGPT也提出了道德問題,特別是當(dāng)它被用來創(chuàng)建被操縱的內(nèi)容。

1.2

ChatGPT研究進(jìn)展

ChatGPT的初始迭代被稱為GPT-1,配備了1.17億個參數(shù),并在大量文本數(shù)據(jù)語料庫上進(jìn)行了訓(xùn)練(Ernst和Bavota,2022)。Sub-后續(xù)版本,如GPT-2、GPT-3和GPT-3.5,通過顯著增加參數(shù)數(shù)量,取得了顯著進(jìn)步。這種增強促進(jìn)了更準(zhǔn)確、更像人類的反應(yīng)的產(chǎn)生。ChatGPT的一個重要突破是其零樣本學(xué)習(xí)能力,這使模型能夠?qū)σ郧皬奈从龅竭^的提示產(chǎn)生連貫的響應(yīng)(Zhang和Li,2021)。這種非凡的能力是通過利用無監(jiān)督學(xué)習(xí)技術(shù)和一種稱為語言建模的新型訓(xùn)練目標(biāo)來實現(xiàn)的。

盡管ChatGPT有局限性,但它的應(yīng)用已擴展到各個領(lǐng)域,包括醫(yī)療保健(Abdel Messih和Kamel Boulos,2023;Sallam,2022)、網(wǎng)絡(luò)安全(Mijwil等人,2023)、環(huán)境研究(Rillig等人,2022 3)、科學(xué)寫作(Salvagno等人,2023;Dowling和Lucey,2023年;Biswas,2023e)。這些發(fā)展可能包括對ChatGPT進(jìn)行實時培訓(xùn),以提高其性能,并擴展其領(lǐng)域特定知識,使其更適合客戶服務(wù)、醫(yī)療保健、商業(yè)或金融等特定領(lǐng)域。

1.3

研究問題和主要貢獻(xiàn)

撰寫一篇關(guān)于ChatGPT及其未來貢獻(xiàn)的綜述,對于綜合知識、確定優(yōu)點和局限性、指導(dǎo)未來研究、告知從業(yè)者和解決倫理問題至關(guān)重要。這篇綜述文章試圖回答以下研究問題:

問題一:ChatGPT研究的現(xiàn)狀是什么,包括其架構(gòu)、進(jìn)展和主要貢獻(xiàn)?

問題二:與ChatGPT相關(guān)的出版物的多樣性如何,這一研究領(lǐng)域的最新趨勢是什么?

問題三:ChatGPT在不同領(lǐng)域的各種應(yīng)用是什么,如醫(yī)療保健、營銷和金融服務(wù)、軟件工程、學(xué)術(shù)和科學(xué)寫作、研究和教育、環(huán)境科學(xué)和自然科學(xué)?

問題四:如何利用多模式數(shù)據(jù)(如文本、音頻、視覺)來增強ChatGPT的功能和性能,在這方面的關(guān)鍵技術(shù)挑戰(zhàn)是什么?

問題五:在聊天機器人系統(tǒng)中部署GPT模型的主要挑戰(zhàn)、倫理考慮、潛在風(fēng)險和正在進(jìn)行的研究工作是什么,以及如何解決這些問題以確保公平、透明、可解釋性和以人為本。

為此,這項綜述工作首次對ChatGPT進(jìn)行了全面的批判性研究,涵蓋了8種不同的應(yīng)用、當(dāng)前問題和未來挑戰(zhàn)。此外,文獻(xiàn)調(diào)查概述了需要改進(jìn)的領(lǐng)域,并提出了潛在的挑戰(zhàn)。最后,還介紹了該工具的未來應(yīng)用及其局限性的答案。

本文的結(jié)構(gòu)如下:第2節(jié)重點介紹ChatGPT的各種研究領(lǐng)域。第3節(jié)介紹ChatGPT相關(guān)文獻(xiàn)的出版趨勢和分類。第4節(jié)討論了ChatGPT的應(yīng)用。第5節(jié)和第6節(jié)分別概述了該工具的局限性和未來的增強功能。最后,第7節(jié)給出了結(jié)論性意見。

二、調(diào)查方法

由于ChatGPT研究在我們?nèi)粘I畹牟煌瑢用嫔系玫搅藦V泛的宣傳和接受,它的快速傳播導(dǎo)致了多樣化的研究格局。我們的研究強調(diào)需要進(jìn)行全面審查,概述其在不同應(yīng)用中的各個方面的用途、局限性和潛在的未來方向。

通過搜索查詢后,以Scopus數(shù)據(jù)庫中篩選出檢索到的文章創(chuàng)建了包含(IC)和排除(EC)標(biāo)準(zhǔn)。在應(yīng)用特定標(biāo)準(zhǔn)后,共有109篇文章包括在分析中。這些文章來自349位作者代表53個不同的國家,表明國際上廣泛參與了關(guān)于ChatGPT的討論文獻(xiàn)。值得注意的是,醫(yī)學(xué)領(lǐng)域的代表性最高,占出版物總數(shù)的23%。其次是社會科學(xué)(20%)和計算機科學(xué)(11%)。美國是已發(fā)表文章的來源國,共有33篇出版物。緊隨其后的是英國,共有10種出版物,澳大利亞和中國各有9種出版物。在合作方面,美國擁有最廣泛的網(wǎng)絡(luò),與24個不同的國家合作,占總語料庫的18%以上。瑞士在合作方面排名第二,有20個合作國家,其次是澳大利亞,有19個合作,英國有18個合作。

三、ChatGPT的出版物多樣性

ChatGPT推出后,很快在各種學(xué)科中廣受歡迎(Cox,2023;Dwivedi等人,2023年;Tlili等人,2022年),包括學(xué)術(shù)界(Chen,2023b)和科學(xué)界(Morreel等人,2024年)。然而,由于ChatGPT產(chǎn)生不準(zhǔn)確信息或被感知的情況,許多人提出了批評和強烈反對。

就出版途徑(期刊和會議)而言,《自然雜志》以13篇文章位居榜首。然而,沒有文章在NLP的頂級會議上發(fā)表,可能是因為會議的宣布和接受通常需要更多的時間,因此未在網(wǎng)上發(fā)布。

四、與ChatGPT相關(guān)的出版物的最新趨勢

通過全面的文獻(xiàn)綜述,在Scopus數(shù)據(jù)庫中搜索ChatGPT的相關(guān)文章后共發(fā)現(xiàn)了109篇文章。截至2023年3月25日,主要有三類文章發(fā)表:1)對ChatGPT的評估,2)使用ChatGPT進(jìn)行的預(yù)測,以及3)對ChatGPT的評論。最大的一組包括跨不同領(lǐng)域的ChatGPT評估。共發(fā)表了68篇文章來評估ChatGPT在提供準(zhǔn)確答案或知識深度方面的能力。使用ChatGPT對不同領(lǐng)域進(jìn)行預(yù)測是第二大文章組(39篇)和最少評論組(10篇出版物)。

同樣重要的是,提示正成為與ChatGPT相關(guān)的一個新興維度(White等人,2023)。研究人員探索了設(shè)計有效提示的各種技術(shù),以從該工具中獲得所需的反應(yīng)。另一個重要趨勢是發(fā)展促進(jìn)多樣性的辦法。倫理考慮在大多數(shù)論文中都有詳細(xì)或簡要的討論。隨著人工智能系統(tǒng)與用戶的互動,對偏見、公平和道德問題的擔(dān)憂變得突出。研究的重點是開發(fā)方法來減少語言模型中的偏見,并確保它們符合。

五、ChatGPT的應(yīng)用

本節(jié)概述了ChatGPT和生成聊天機器人的主要應(yīng)用程序。ChatGPT的常見應(yīng)用之一是作為個人助理(Bakker等人,2022)。在不同的領(lǐng)域,該工具被定制以滿足特定領(lǐng)域的需求。例如,在醫(yī)療保健領(lǐng)域,ChatGPT被用作虛擬醫(yī)療助理,為患者提供有關(guān)癥狀、醫(yī)療和一般醫(yī)療保健建議的信息。在市場營銷中,ChatGPT是一個對話式聊天機器人,用于處理客戶咨詢、提供產(chǎn)品推薦和協(xié)助訂單跟蹤。

5.1

醫(yī)療保健

盡管ChatGPT可以訪問有限的醫(yī)學(xué)數(shù)據(jù),但它在醫(yī)學(xué)執(zhí)照考試中的表現(xiàn)相當(dāng)于醫(yī)學(xué)三年級本科生。Stokel-Worker和van Noorden在他們的文章中描述了生成人工智能對科學(xué)的影響,以及ChatGPT如何回答一些開放式醫(yī)學(xué)問題,幾乎與普通醫(yī)生一樣好(Sohail et al.,2023),但也有一些缺點和不可靠性(Stokel-WWalker和van Noorden,2023年)。當(dāng)明確提供臨床重要因素時,ChatGPT能夠識別這些因素,但隨著場景的復(fù)雜性增加,它錯過了相關(guān)問題(Howard等人,2023)。ChatGPT的回答通常是連貫的,拼寫和語法都很恰當(dāng)。該模型的回答包括對情景和問題的理解總結(jié)、管理選項以及反映其信息來源的免責(zé)聲明,這些信息來源與患者信息網(wǎng)站的格式類似。ChatGPT經(jīng)常逐字逐句地重復(fù)問題,包括任何錯誤,盡管它偶爾會注意到并更正它們。

5.2

營銷和金融服務(wù)

近年來,人工智能在銀行業(yè)的使用變得越來越重要,ChatGPT為后端運營、數(shù)據(jù)分析和個性化客戶服務(wù)提供了機會。AI可用于了解消費者需求并制定有效的營銷策略,但由于金融服務(wù)行業(yè)的高監(jiān)管,僅依靠ChatGPT存在局限性。人力參與是驗證見解和報價可信度的必要條件,銀行必須投資于基礎(chǔ)設(shè)施和人力資源,將人工智能融入其數(shù)字化轉(zhuǎn)型戰(zhàn)略。

許多研究,如Dwivedi等人(2023);Geerling等人(2023);Street和Wilck(2023);Rathore(2023)已經(jīng)研究了在銀行運營中使用ChatGPT的潛力,包括后端數(shù)據(jù)分析和營銷溝通策略,以及前端運營與客戶接觸的潛力。

5.3

軟件工程

軟件工程是一個廣泛的領(lǐng)域,由軟件開發(fā)、設(shè)計、測試、編碼等子過程組成。ChatGPT已被證明有助于軟件工程的所有這些子領(lǐng)域(Sobania等人,2023;Aljanabi等人,2022;Surameery和Shakor,2023,White等人,2021;White等人(2023)。研究人員已經(jīng)使用ChatGPT來自動確定軟件錯誤的程序(Sobania等人,2023;Surameery和Shakor,2023)。他們在標(biāo)準(zhǔn)QuixBugs基準(zhǔn)集上評估了ChatGPT的bug修復(fù)能力。

Ahmad等人(2023)使用ChatGPT來分析、綜合和評估面向服務(wù)的軟件應(yīng)用程序的體系結(jié)構(gòu)。他們得出的結(jié)論是,在人類觀察的情況下,ChatGPT可以代替全職的人類架構(gòu)師來執(zhí)行以架構(gòu)為中心的軟件工程過程。此外,White等人(2023)提出了一個使用ChatGPT實現(xiàn)軟件開發(fā)過程自動化的快速工程框架,包括創(chuàng)建API規(guī)范、與第三方庫脫鉤、需求規(guī)范、測試、部署等。

5.4

學(xué)術(shù)和科學(xué)寫作

ChatGPT的一個應(yīng)用領(lǐng)域引起了許多人的興趣,那就是語言摘要和闡述。自發(fā)布以來,ChatGPT已被廣泛用于論文寫作、申請起草、電子郵件內(nèi)容生成和研究論文寫作。此外,Kitamura(2023)指出,人工智能輔助工具非常有用,可以為未來的醫(yī)療內(nèi)容寫作發(fā)揮作用。也就是說,人類的判斷對于證實ChatGPT的輸出是必不可少的。同樣,Kumar(2023)斷言,如果受到人類的指導(dǎo),ChatGPT在研究寫作方面具有巨大潛力。

除此之外,Bishop(2023)在與ChatGPT的一系列對話中表明,人工智能機器人可以用人類風(fēng)格寫作,也可以復(fù)制作者的寫作風(fēng)格。作者(Salvagno等人,2023)推斷,在如何規(guī)范人工智能輔助工具在學(xué)術(shù)寫作中的使用需要達(dá)成共識,因為在科學(xué)寫作中使用聊天機器人會帶來與剽竊、不準(zhǔn)確和不平等相關(guān)風(fēng)險的倫理問題。Gao等人的一項實驗(2023)使用了50篇科學(xué)期刊的摘要,并要求ChatGPT根據(jù)標(biāo)題生成摘要。有趣的是,人類評論者發(fā)現(xiàn)聊天機器人寫的摘要和人寫的摘要之間很難區(qū)分。

5.5

研究和教育

對于chatGPT正在研究的許多應(yīng)用領(lǐng)域來說,研究和教育是最突出的。Rahman和Watanobe(2023)通過實驗表明,ChatGPT既可以用于解決技術(shù)問題,如工程和計算機編程,也可以用于解決非技術(shù)問題,例如語言和文學(xué)。然而,他們警告要意識到其局限性,如偏見和歧視、隱私和安全、技術(shù)濫用、問責(zé)制、透明度和社會影響。

Megahed等人(2023)從他們的研究中得出結(jié)論,ChatGPT在翻譯代碼和解釋眾所周知的概念等結(jié)構(gòu)化任務(wù)中表現(xiàn)良好,但在解釋不太熟悉的術(shù)語和從頭開始創(chuàng)建代碼等細(xì)微任務(wù)中表現(xiàn)不佳。他們認(rèn)為,雖然使用人工智能工具可以提高效率和生產(chǎn)力,但目前的結(jié)果可能具有誤導(dǎo)性和不正確性。因此,生成性人工智能模型必須經(jīng)過適當(dāng)?shù)尿炞C,并與軟件過程改進(jìn)中的其他方法結(jié)合使用,以確保準(zhǔn)確的結(jié)果。

5.6

環(huán)境科學(xué)

到目前為止,有一些關(guān)于ChatGPT在環(huán)境科學(xué)中的潛在用途的研究。Rillig等人(2023)概述了該LLM工具的潛在好處和風(fēng)險。他們認(rèn)為,ChatGPT可以幫助簡化環(huán)境研究的工作流程,環(huán)保主義者可以更多地專注于設(shè)計實驗以及發(fā)展新的想法,而不是他們寫作的質(zhì)量。

它還將使非英語國家在環(huán)境科學(xué)領(lǐng)域擁有更大的代表性,加快相關(guān)環(huán)境問題的研究步伐。朱等人(2023)也提出了類似的觀察結(jié)果,考慮到環(huán)境研究涉及的各種決策過程,在將ChatGPT等人工智能工具集成到其中時,必須謹(jǐn)慎行事。在解決對社會福利有重大影響的環(huán)境問題時,這一點尤為重要。

Biswas(2023d)提到了使用ChatGPT來解決全球變暖問題。據(jù)他說,環(huán)境研究人員可以利用ChatGPT的能力來分析和解釋大量的氣候變化數(shù)據(jù),并隨后根據(jù)分析預(yù)測氣候變化模式。此外,ChatGPT可以用于以易于理解的格式向更廣泛的受眾呈現(xiàn)復(fù)雜的氣候變化信息。它有可能為決策者提供相關(guān)信息和建議,以緩解氣候變化。

5.7

自然語言處理

ChatGPT已顯示出其作為各種面向NLP的任務(wù)的有價值工具的潛力,包括自殺傾向檢測、仇恨言論檢測和假新聞檢測。特別是,Qin等人(2023)認(rèn)為,像ChatGPT這樣的大型模型可以執(zhí)行NLP任務(wù),而不需要特定的數(shù)據(jù)自適應(yīng)。他們在20個常見NLP數(shù)據(jù)集上對ChatGPT的零樣本學(xué)習(xí)能力進(jìn)行了評估,涵蓋了推理、自然語言推理、問答、對話、摘要、命名實體識別和情感分析等類別。

Hendy等人(2023)對機器傳輸任務(wù)的GPT模型(包括ChatGPT)進(jìn)行了全面評估。評估涵蓋了18個翻譯方向,涉及法語、德語、冰島語、漢語、日語等多種語言。結(jié)果表明,GPT模型可以生成對資源豐富的語言具有高度競爭力的翻譯輸出。然而,對于低資源語言,GPT模型的當(dāng)前狀態(tài)顯示出局限性,這表明需要進(jìn)一步改進(jìn)。

鑒于各種NLP任務(wù)之間的相似性,上述研究的結(jié)果可以外推到其他相關(guān)領(lǐng)域,ChatGPT的應(yīng)用正在各個領(lǐng)域迅速擴展(Mijwil等人,2023;Aljanabi等人,2021),這表明這種增長趨勢將在可預(yù)見的未來持續(xù)下去。

六、ChatGPT面臨的挑戰(zhàn)和問題

研究人員已經(jīng)確定了關(guān)于ChatGPT的幾個問題,可以大致分為兩組:內(nèi)在限制和使用相關(guān)問題。這些限制使得ChatGPT在現(xiàn)實世界場景中的使用和部署變得困難。

6.1

固有的內(nèi)部問題指的是ChatGPT固有的局限性

它包括五個主要局限性,即幻覺、內(nèi)容偏頗、非實時性、誤傳性和不可解釋性。ChatGPT可能會產(chǎn)生幻覺,即創(chuàng)建不存在的新數(shù)據(jù)/信息(Deng和Lin,2022)。另一個類似的擔(dān)憂是錯誤信息(Borji,2023)。這兩個問題都可能導(dǎo)致產(chǎn)生反事實或無意義的回應(yīng),從而嚴(yán)重威脅生成內(nèi)容的可靠性。研究證明,通過人的反饋強化學(xué)習(xí),算法改進(jìn)、正確輸入查詢以及驗證生成的響應(yīng)可能有助于克服這些問題。

也有人擔(dān)心ChatGPT引起的刻板印象和偏見反應(yīng)的潛在危害(Liang等人,2021;Nadeem等人,2020)。除了算法改進(jìn)和人類反饋之外,重新定義訓(xùn)練數(shù)據(jù)以刪除或標(biāo)記有偏見的內(nèi)容可能有助于朝著這個方向發(fā)展。ChatGPT有許多關(guān)鍵應(yīng)用,需要對邏輯推理步驟進(jìn)行合理的推理和解釋。它包括各種容錯領(lǐng)域的決策,如社會服務(wù)、環(huán)境科學(xué)、醫(yī)療保健等。在這種情況下,ChatGPT不僅必須提供可用于決策的準(zhǔn)確信息,還必須提供邏輯推理過程中涉及的步驟。

6.2

使用相關(guān)

與使用相關(guān)的問題類別包括不道德地使用該工具、侵犯版權(quán)的內(nèi)容以及過度依賴ChatGPT。此外,法律法規(guī)應(yīng)旨在懲罰不道德地使用ChatGPT的行為。由于有許多與ChatGPT相關(guān)的倫理考慮,我們在下一節(jié)中分別進(jìn)行了討論。

6.3

倫理問題

ChatGPT能夠通過從眾多互聯(lián)網(wǎng)來源提取信息來自動生成響應(yīng),通常無需用戶進(jìn)一步輸入。這引發(fā)了人們對其潛在濫用的擔(dān)憂,因為據(jù)報道,個人利用該系統(tǒng)創(chuàng)作大學(xué)論文和學(xué)術(shù)文章,甚至在提示時包括參考文獻(xiàn)(Ali和Djalilian,2023a)。與使用ChatGPT相關(guān)的倫理問題之一是產(chǎn)生虛假文本和敘事(NewsGuard,2023;Dugan等人,2022)。Curtis等人(Curtis,2023)提出了用于識別由ChatGPT生成的文本的各種方法。這些方法包括簡單的二進(jìn)制分類器以及先進(jìn)的深度學(xué)習(xí)模型。一些技術(shù)利用統(tǒng)計特征或語法模式,而另一些技術(shù)則結(jié)合語義和上下文信息來提高準(zhǔn)確性。這些研究的主要目的是對ChatGPT特有的最新檢測技術(shù)進(jìn)行全面和最新的評估。

ChatGPT的使用日益增多,突顯出學(xué)術(shù)出版迫切需要嚴(yán)格的人工智能作者指南。當(dāng)人工智能生成學(xué)術(shù)文本時,存在與版權(quán)、歸屬、剽竊和作者身份相關(guān)的倫理問題。這些擔(dān)憂尤其相關(guān),因為當(dāng)前的技術(shù)允許人類讀者或反剽竊軟件進(jìn)行區(qū)分人工智能生成的內(nèi)容和人類創(chuàng)作的內(nèi)容之間的差異(Rahimi和Abadi,2023)。我們的觀點是,ChatGPT的可用性、易用性和多語言能力可以顯著提高學(xué)術(shù)產(chǎn)出,從而使知識傳播民主化。然而,聊天機器人可能產(chǎn)生誤導(dǎo)或不準(zhǔn)確的內(nèi)容,這引發(fā)了人們對學(xué)術(shù)錯誤信息的擔(dān)憂(Mhlanga,2023)。OpenAI承認(rèn),ChatGPT可能會產(chǎn)生聽起來合理但不正確或無意義的答案。

七、未來可能性

在本節(jié)中,我們將探討與ChatGPT相關(guān)的一些未來可能性。我們設(shè)想,ChatGPT的未來迭代可能會包含各種額外的變量,這有助于開發(fā)更復(fù)雜和增強的人工智能語言模型。

7.1

提高會話能力

ChatGPT可能會更好地理解和反應(yīng)人類的語音,使其聽起來更具對話性S.S.Sohail、F.Farhat、Y.Himeur等人。自然的這可能需要在情感分析、自然語言處理和上下文理解等學(xué)科中進(jìn)行發(fā)展。以下是一些可以幫助人工智能變得更具對話性的基本策略。

7.1.1 增加訓(xùn)練數(shù)據(jù)的數(shù)量和種類

人工智能語言模型從提供的數(shù)據(jù)中學(xué)習(xí)。因此,通過讓他們接觸更廣泛的語言模式和語言文本,擴大訓(xùn)練數(shù)據(jù)的規(guī)模和多樣性有助于提高他們的會話能力。通常,增加訓(xùn)練數(shù)據(jù)的數(shù)量和種類可以幫助提高ChatGPT的性能。通過提供更多的數(shù)據(jù),該模型可以提高對語言以及單詞和短語之間關(guān)系的理解(Cao et al.,2023)。更具體地說,增加訓(xùn)練數(shù)據(jù)量可以幫助模型更多地了解不同的主題和上下文,這可以使其更加通用,能夠處理更廣泛的查詢。此外,提供更多不同的數(shù)據(jù)可以幫助模型學(xué)會重新計算。

然而,同樣重要的是,僅僅增加數(shù)據(jù)的數(shù)量和種類并不總是能提高性能。數(shù)據(jù)的質(zhì)量也至關(guān)重要,重要的是要確保用于訓(xùn)練的數(shù)據(jù)準(zhǔn)確、相關(guān)且多樣,足以代表各種語言和語音模式。此外,其他因素,如模型架構(gòu)、訓(xùn)練方法和超參數(shù),也會影響模型的性能。

7.1.2 微調(diào)

微調(diào)方法包括將現(xiàn)有的人工智能語言模型通過一系列任務(wù)或領(lǐng)域。該模型可以接受培訓(xùn),通過參與客戶服務(wù)或個人助理等對話任務(wù),得出更相關(guān)、更有用的答案(Bakker等人,2022;Himeur等人,2022b)。這個過程包括向模型提供會話數(shù)據(jù)集,并使用會話對作為輸入和輸出通過反向傳播對其進(jìn)行優(yōu)化。因此,該模型變得更加準(zhǔn)確、有效,并對生成會話響應(yīng)的特定任務(wù)做出響應(yīng)。

7.1.3 包含人的反饋

可以收集人工智能語言模型產(chǎn)生的反應(yīng)的人工輸入,以幫助模型的對話技能。這可以通過要求用戶對答案的質(zhì)量進(jìn)行評分來實現(xiàn),也可以通過讓人類對模型產(chǎn)生的回答進(jìn)行審查、編輯和提供反饋來實現(xiàn)。如果模型理解上下文(如先前的對話歷史或用戶的意圖)的能力得到提高,它們可以產(chǎn)生更相關(guān)、更個性化的響應(yīng)。結(jié)合人類反饋是提高ChatGPT性能的有效方法。

7.1.4 融入人類情感

人類經(jīng)常通過幽默、同理心和諷刺來表達(dá)自己的感受。人工智能語言模型的對話技能可以通過添加情感來增強,使其更具相關(guān)性和趣味性。盡管這是人工智能領(lǐng)域一個復(fù)雜且有爭議的主題(Pahl et al.,2022;Domnich和Anbarjafari,2021),但將人類情感納入人工智能的語言模型是一個挑戰(zhàn)。因為在人工智能語言模型中添加情感會帶來意想不到的后果和風(fēng)險,如偏見和歧視、操縱、隱私泄露以及不恰當(dāng)或冒犯性的反應(yīng)。因此,在將情緒納入人工智能語言模型之前,必須充分考慮風(fēng)險和道德分歧。

7.1.5 基于風(fēng)格的高級文本分析技術(shù)

通過將利用復(fù)雜網(wǎng)絡(luò)的基于風(fēng)格的技術(shù)與Chat GPT相結(jié)合,該模型可以利用風(fēng)格屬性的分析來增強其文本生成能力。這種組合允許Chat GPT識別、理解和復(fù)制風(fēng)格模式,從而生成不僅與內(nèi)容一致,而且與所需風(fēng)格一致的文本。在Chat GPT框架中集成基于風(fēng)格的分析,可以更全面地理解和生成文本,為個性化、風(fēng)格豐富和適合上下文的交互開辟了可能性。

除此之外,Chat GPT還可以通過集成單詞嵌入(Quispe et al.,2021)來增強其對風(fēng)格元素的理解和融入,從而做出創(chuàng)新性貢獻(xiàn)。此外,將基于風(fēng)格的文本分析集成到ChatGPT的對話框架中(Stella et al.,2019)可以幫助生成感覺更自然、更個性化的文本,從而在用戶和人工智能系統(tǒng)之間建立更牢固的聯(lián)系。然而,當(dāng)前的主要挑戰(zhàn)是熟練地將Chat GPT生成以內(nèi)容為中心的文本的能力與復(fù)雜的基于網(wǎng)絡(luò)的方法所促進(jìn)的風(fēng)格分析相結(jié)合。它需要將Chat GPT的內(nèi)容生成能力與復(fù)雜網(wǎng)絡(luò)技術(shù)提供的全面風(fēng)格分析無縫集成。

7.2

個性

ChatGPT的未來迭代可能會適應(yīng)每個用戶,利用他們之前的互動來個性化答案并創(chuàng)建更親密的對話。因此,用戶體驗和數(shù)據(jù)保護都可以得到改善。增強ChatGPT的自定義能力的方法如下:

7.2.1 通過各種來源增加個性化的用戶體驗

可以提供更多的信息來提高對語言模式的理解,并使答案更符合用戶需求。許多來源,包括社交媒體、客戶支持互動和其他在線對話,都可以提供這些信息。

7.2.2 特定域的微調(diào)

增加特定主題或領(lǐng)域的領(lǐng)域知識,如客戶服務(wù)、醫(yī)療保健、商業(yè)或金融,可以通過微調(diào)特定數(shù)據(jù)集來實現(xiàn)。對于用戶特定領(lǐng)域,這可能會導(dǎo)致更精確的答案和量身定制(Batko和Slezak,2022;Himeur等人,2022a)。

7.2.3 包含個性化提示

包括個性化提示,如用戶名或?qū)ο惹皩υ挼囊?,可以提高用?a href="http://qjkhjx.com/Index/complaintData.html" target="_blank">滿意度并提高理解。如ChatGPT可以在答案中使用用戶名,從而使交互更加自定義。例如,其中一個名叫John的用戶之前曾與ChatGPT進(jìn)行過一次對話,在對話中他提到了自己的名字。如果約翰問:“今天天氣怎么樣?”ChatGPT可以回應(yīng):“當(dāng)然,約翰!今天的天氣預(yù)報是晴天,氣溫為75度?!蓖ㄟ^結(jié)合John的名字和之前的對話,ChatGPT能夠提供更個性化和定制的響應(yīng),從而提高用戶對所提供信息的整體滿意度和理解力。

7.2.4 提供文化和地區(qū)多樣性的實例

ChatGPT可以根據(jù)各種數(shù)據(jù)集進(jìn)行培訓(xùn),這些數(shù)據(jù)包括各種文化規(guī)范和傳統(tǒng)的詳細(xì)信息,如問候語、社會習(xí)俗和文化實踐。這有助于ChatGPT更好地理解和處理來自不同文化背景的用戶,并確保其反駁被考慮和尊重各種文化規(guī)范和標(biāo)準(zhǔn)。

7.2.5 用戶對會話響應(yīng)的反饋

收集用戶對會話響應(yīng)的反饋可以幫助確定使其更加個性化的方法。調(diào)查、用戶試用以及對用戶與模型交互的分析都是收集反饋的方法。

7.2.6 持續(xù)培訓(xùn)和更新

為了增強ChatGPT提供個性化答案的能力,可以對其進(jìn)行新的數(shù)據(jù)訓(xùn)練。例如,如果出現(xiàn)新的趨勢,可以對與該趨勢相關(guān)的數(shù)據(jù)進(jìn)行訓(xùn)練,以增強其提供個性化回答的能力。具體而言,有幾種方法可以實現(xiàn)對ChatGPT的持續(xù)訓(xùn)練和更新。一種方法是定期向模型中輸入新數(shù)據(jù),方法是向現(xiàn)有訓(xùn)練集添加新數(shù)據(jù),或者根據(jù)新數(shù)據(jù)對模型進(jìn)行微調(diào)。另一種方法是持續(xù)監(jiān)控ChatGPT的性能,并根據(jù)需要對模型進(jìn)行調(diào)整。這可能包括監(jiān)控準(zhǔn)確性、困惑度和語言生成質(zhì)量等指標(biāo),并使用這些反饋來更新模型。


7.3

多式聯(lián)運設(shè)計

與ChatGPT的多模式集成將實現(xiàn)更自然、更人性化的直觀、引人入勝和有效的溝通。它需要創(chuàng)建能夠處理和組合各種數(shù)據(jù)的機器學(xué)習(xí)模型和算法,包括文本、音頻和圖像??梢詫⑦@些不同的模式結(jié)合起來,以各種方式創(chuàng)造更具吸引力的有效的用戶體驗。

7.3.1 基于圖像的設(shè)計

使用圖像作為交流的主要工具是基于圖像的設(shè)計的重點。為了傳達(dá)某種信息或想法,這可能涉及使用圖像、插圖和其他視覺組件。視覺識別、圖像字幕和基于圖像的搜索可以與ChatGPT集成,使其成為多模式人工智能。圖像識別和基于圖像的搜索是功能強大的工具,在不同領(lǐng)域都有大量應(yīng)用。例如,學(xué)生可以利用這些技術(shù)來定位和分析相關(guān)圖像,用于學(xué)術(shù)研究目的。

7.3.2 基于音頻的設(shè)計

可以與ChatGPT結(jié)合的音頻功能的幾個例子是語音識別、音頻字幕和基于內(nèi)容的音頻檢索。通過處理聽覺輸入并將其翻譯成軟件或其他設(shè)備可能使用的文本,語音識別技術(shù)使ChatGPT能夠理解和識別口語。

7.3.3 基于視頻的設(shè)計

集成基于視頻的設(shè)計技術(shù),如視頻內(nèi)容分析、視頻字幕和視頻索引,是開發(fā)多模式人工智能系統(tǒng)的關(guān)鍵方面。通過結(jié)合視頻內(nèi)容分析,多模式ChatGPT可以分析和處理視頻片段,檢測對象,并跟蹤視頻中的運動。視頻字幕可以添加到ChatGPT中,在對話過程中提供隱藏字幕或字幕,使視頻內(nèi)容更容易訪問。此外,視頻索引允許用戶使用關(guān)鍵字或時間戳搜索視頻中的特定內(nèi)容,從而更容易快速查找相關(guān)信息。

7.3.4 人機交互設(shè)計

創(chuàng)建多模式人工智能的下一步將是結(jié)合人機交互的特征,包括面部表情、觸覺。

7.4 

可信度

當(dāng)今最緊迫的需求之一是開發(fā)值得信賴的人工智能。為了實現(xiàn)這一點,ChatGPT的未來迭代可以包含保證公正和公平答案的功能。隨著人工智能倫理和公平變得越來越重要,可以考慮三個關(guān)鍵類別:計算技術(shù)、倫理考慮和社會考慮。深度學(xué)習(xí)、機器學(xué)習(xí)和人工神經(jīng)網(wǎng)絡(luò)等升級的技術(shù)發(fā)展應(yīng)該集成到計算方法中,以提高人工智能的性能。然而,還必須考慮倫理因素,包括數(shù)據(jù)倫理,以確保人工智能系統(tǒng)培訓(xùn)的數(shù)據(jù)收集、存儲和使用是以道德和負(fù)責(zé)任的方式進(jìn)行的,同時防止未經(jīng)授權(quán)的訪問或濫用。為了防止基于宗教、種族或性別等特征對個人或群體的歧視,機器學(xué)習(xí)的公平性也必須是優(yōu)先事項。

7.4.1 公平

在人工智能系統(tǒng)的創(chuàng)建和應(yīng)用過程中,應(yīng)納入人工智能的公平性,以避免偏見和歧視。它需要確保人工智能系統(tǒng)平等地處理每個人,沒有歧視,不會加劇現(xiàn)有的偏見和不平等。這需要全面考慮用于訓(xùn)練人工智能模型的數(shù)據(jù),以及人工智能系統(tǒng)中使用的算法和決策程序。作為一種AI語言模型,ChatGPT可以通過考慮和解決其訓(xùn)練數(shù)據(jù)、決策過程和輸出中的偏見來努力實現(xiàn)公平。解決訓(xùn)練數(shù)據(jù)中的偏見的一種方法是確保用于訓(xùn)練模型的數(shù)據(jù)是多樣的,并能代表人群。這可以通過使用各種來源和包括代表性不足群體的數(shù)據(jù)來實現(xiàn)(Hassani和Silva,2023)。培訓(xùn)數(shù)據(jù)也應(yīng)仔細(xì)策劃和過濾,以消除任何有偏見或有問題的數(shù)據(jù)。

7.4.2 透明度

人工智能系統(tǒng)的決策過程和基本數(shù)據(jù)對用戶透明和可用的程度被稱為人工智能的透明度。因為透明的人工智能系統(tǒng)更容易理解和分析,它們鼓勵信任,使系統(tǒng)更有可能做出道德和法律選擇。為了確保ChatGPT使用的透明度,必須清楚該模型的局限性及其功能。此外,重要的是要對用于訓(xùn)練模型的數(shù)據(jù)源和任何潛在的偏差保持透明。

7.4.3 可解釋性

可解釋的人工智能可以為其選擇和決策提供全面的解釋。因此,人類可以理解和驗證系統(tǒng)的決策過程,這對于建立人工智能系統(tǒng)的信心至關(guān)重要。增加可解釋性的一種方法是使用固有的可解釋性模型,如決策樹或線性回歸模型。這些模型更容易理解,因為它們明確地顯示了每個特征對模型輸出的貢獻(xiàn)。

另一種方法是計算并呈現(xiàn)模型輸入的特征重要性分?jǐn)?shù)。這允許用戶查看哪些因素該模型正在使用進(jìn)行預(yù)測。

7.4.4 以人為本的設(shè)計

它指的是創(chuàng)建符合人類價值觀、需求和偏好的人工智能系統(tǒng)的過程。這需要考慮人工智能系統(tǒng)的倫理和社會影響,并在設(shè)計時強調(diào)透明度、公平性和問責(zé)制。以人為中心的設(shè)計原則通常應(yīng)用于研發(fā)過程中,例如進(jìn)行用戶研究以了解使用語言模型的人的需求和行為,測試不同的設(shè)計原型,以及根據(jù)用戶反饋迭代設(shè)計。

八、結(jié)論

在這篇綜述文章中,我們通過全面回顧關(guān)于ChatGPT的100多篇Scopus索引出版物,展示了未來GPT語言模型在各個領(lǐng)域的巨大潛力。盡管有其潛力,但早期的ChatGPT研究仍然面臨一些局限性。我們確定了一些可能需要解決的問題,這些問題被歸類為內(nèi)在的和以使用為中心的問題。此外,我們還討論了倫理問題。最后,為克服這些挑戰(zhàn)并提高ChatGPT的效率,我們發(fā)現(xiàn)了一些潛在的未來發(fā)展方向。

浙江網(wǎng)經(jīng)社信息科技公司擁有18年歷史,作為中國領(lǐng)先的數(shù)字經(jīng)濟新媒體、服務(wù)商,提供“媒體+智庫”、“會員+孵化”服務(wù);(1)面向電商平臺、頭部服務(wù)商等PR條線提供媒體傳播服務(wù);(2)面向各類企事業(yè)單位、政府部門、培訓(xùn)機構(gòu)、電商平臺等提供智庫服務(wù);(3)面向各類電商渠道方、品牌方、商家、供應(yīng)鏈公司等提供“千電萬商”生態(tài)圈服務(wù);(4)面向各類初創(chuàng)公司提供創(chuàng)業(yè)孵化器服務(wù)。

網(wǎng)經(jīng)社“電數(shù)寶”電商大數(shù)據(jù)庫(DATA.100EC.CN,免費注冊體驗全庫)基于電商行業(yè)18年沉淀,包含100+上市公司、新三板公司數(shù)據(jù),150+獨角獸、200+千里馬公司數(shù)據(jù),4000+起投融資數(shù)據(jù)以及10萬+互聯(lián)網(wǎng)APP數(shù)據(jù),全面覆蓋“頭部+腰部+長尾”電商,旨在通過數(shù)據(jù)可視化形式幫助了解電商行業(yè),挖掘行業(yè)市場潛力,助力企業(yè)決策,做電商人研究、決策的“好參謀”。

【關(guān)鍵詞】 ChatGPT汪政原創(chuàng)
【投訴曝光】 更多>
【原創(chuàng)報告】 更多>
《2025年Q1中國電商平臺商家投訴數(shù)據(jù)報告》
《2025年Q1中國電子商務(wù)用戶體驗與投訴數(shù)據(jù)報告》
《2025中國農(nóng)產(chǎn)品電商發(fā)展報告》
《2025中國預(yù)制菜電商發(fā)展報告》
《2024中國電子商務(wù)用戶體驗與投訴監(jiān)測報告》
《2024中國數(shù)字生活消費投訴數(shù)據(jù)與典型案例報告》
《2024年中國數(shù)字教育用戶體驗與投訴數(shù)據(jù)報告》
《2024中國出口跨境電商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國綜合電商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國在線旅游消費投訴數(shù)據(jù)與典型案例報告》
《2024中國社交電商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國電商服務(wù)商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國生鮮電商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國在線票務(wù)用戶體驗與投訴數(shù)據(jù)報告》
《2024中國物流科技投訴數(shù)據(jù)與典型案例報告》
《2024中國品牌電商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國二手電商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國金融科技消費投訴數(shù)據(jù)與典型案例報告》
《2024中國產(chǎn)業(yè)電商消費投訴數(shù)據(jù)與典型案例報告》
《2024中國進(jìn)口跨境電商消費投訴數(shù)據(jù)與典型案例報告》

【版權(quán)聲明】秉承互聯(lián)網(wǎng)開放、包容的精神,網(wǎng)經(jīng)社歡迎各方(自)媒體、機構(gòu)轉(zhuǎn)載、引用我們原創(chuàng)內(nèi)容,但要嚴(yán)格注明來源網(wǎng)經(jīng)社;同時,我們倡導(dǎo)尊重與保護知識產(chǎn)權(quán),如發(fā)現(xiàn)本站文章存在版權(quán)問題,煩請將版權(quán)疑問、授權(quán)證明、版權(quán)證明、聯(lián)系方式等,發(fā)郵件至NEWS@netsun.com,我們將第一時間核實、處理。

        平臺名稱
        平臺回復(fù)率
        回復(fù)時效性
        用戶滿意度
        微信公眾號
        微信二維碼 打開微信“掃一掃”
        微信小程序
        小程序二維碼 打開微信“掃一掃”